About the Role
Jesta I.S. builds enterprise retail technology used by apparel and footwear brands with complex, multi-site operations. Our data environment spans ERP and cloud platforms, and our engineering culture is hands-on, pragmatic, and fast-moving. You’ll work in a production environment that integrates Oracle, Snowflake, and AWS, supported by strong security standards, modern CI/CD practices, and close collaboration between data science and engineering teams.
We are looking for a Senior MLOps Engineer to design, build, and maintain the data and machine learning pipelines that power our AI and analytics platforms.
This is a hands-on engineering role responsible for the full lifecycle of ML operations—from data ingestion and transformation to model training, deployment, and retraining.
You will work across multiple layers of the cloud stack, bridging data engineering, ML automation, and deployment, with a focus on reliability, scalability, performance, and cost-efficient design.
Key Responsibilities
Build and automate ML pipelines for data preparation, training, inference, and retraining.
Develop and maintain data pipelines between Oracle ERP, Snowflake, and cloud environments.
Create Kedro-based modular pipelines for reusable and maintainable workflows.
Use AWS Glue, DMS, Athena, and dbt for ETL and data transformation.
Manage AWS Batch and Fargate workloads for scalable model training and inference.
Integrate advanced data-science and forecasting libraries into production workflows.
Implement CI/CD pipelines for ML and data workflows (GitHub Actions, Jenkins, etc.).
Use MLflow for experiment tracking, model registry, and artifact management.
Build and maintain Dockerized environments via AWS EC2, ECR, and Batch.
Collaborate with data scientists to operationalize models and optimize performance.
Ensure secure, compliant cloud deployments (IAM, RBAC, encryption, network security).
Technical Stack
Languages & Frameworks: Python (pandas, PySpark, Polars, boto3, joblib, lightgbm/xgboost), SQL, dbt
Data Engineering: AWS Glue, AWS DMS, Athena, Snowflake, Oracle
Pipeline & Orchestration: Kedro, Airflow, EventBridge, Batch, Fargate
MLOps: MLflow, Docker, ECR, CI/CD (GitHub Actions, Jenkins, or similar)
Forecasting & Modeling: Prophet, XGBoost, LightGBM, scikit-learn
Cloud & Deployment: AWS (EC2, S3, RDS, Glue, Batch, Fargate), Azure (integration/authentication)
Security: AWS IAM, Cognito, encryption, and network access control
Qualifications
Bachelor’s or Master’s in Computer Science, Machine Learning, or related field.
5+ years of professional experience in ML engineering, MLOps, or data-pipeline development.
Proven ability to design and automate end-to-end ML pipelines in the cloud.
Strong Python and SQL skills.
Experience integrating ML systems with enterprise data sources (Oracle, Snowflake).
Familiar with containerized deployments, workflow orchestration, and CI/CD.
Understanding of model lifecycle management, versioning, and deployment best practices.
Traits We Value
Hands-on engineer with strong ownership.
Analytical, performance-focused problem solver.
Pragmatic balance of scalability, cost, and maintainability.
Thrives at the intersection of data, ML, and software engineering.
Collaborative mindset—works closely with data scientists and developers.
Passion for automation, reliability, and continuous improvement.
Additional Information
Work Model: Hybrid; 2 days per week in the Montreal office. Remote option possible for exceptional candidates.
We thank all applicants for their interest; only those shortlisted will be contacted.
Join us to help build the cloud foundations of our AI-powered future!
À propos du poste
Jesta I.S. développe des technologies d’entreprise pour le commerce de détail, utilisées par des marques de vêtements et de chaussures ayant des opérations complexes et multi-sites.
Notre environnement de données englobe des plateformes ERP et cloud, et notre culture d’ingénierie est pratique, pragmatique et dynamique.
Vous travaillerez dans un environnement de production intégrant Oracle, Snowflake et AWS, soutenu par des normes de sécurité rigoureuses, des pratiques modernes de CI/CD, et une collaboration étroite entre les équipes de science des données et d’ingénierie.
Nous recherchons un·e Ingénieur·e MLOps senior pour concevoir, construire et maintenir les pipelines de données et d’apprentissage automatique (machine learning) qui alimentent nos plateformes d’IA et d’analytique.
Il s’agit d’un rôle d’ingénierie pratique couvrant l’ensemble du cycle de vie des opérations ML — de l’ingestion et la transformation des données à l’entraînement, au déploiement et à la ré-entraînement des modèles.
Vous interviendrez à travers plusieurs couches de la pile cloud, reliant l’ingénierie de données, l’automatisation ML et le déploiement, avec un accent sur la fiabilité, la scalabilité, la performance et la rentabilité des solutions.
Responsabilités clés
Concevoir et automatiser des pipelines ML pour la préparation des données, l’entraînement, l’inférence et la ré-entraînement.
Développer et maintenir des pipelines de données entre Oracle ERP, Snowflake et les environnements cloud.
Créer des pipelines modulaires basés sur Kedro pour des workflows réutilisables et faciles à maintenir.
Utiliser AWS Glue, DMS, Athena et dbt pour les processus ETL et les transformations analytiques.
Gérer les charges AWS Batch et Fargate pour l’entraînement et l’inférence des modèles à grande échelle.
Intégrer des bibliothèques avancées de science des données et de prévision dans les workflows de production.
Mettre en œuvre des pipelines CI/CD pour les workflows ML et de données (GitHub Actions, Jenkins, etc.).
Utiliser MLflow pour le suivi des expériences, le registre de modèles et la gestion des artefacts.
Construire et maintenir des environnements Dockerisés déployés via AWS EC2, ECR et Batch.
Baccalauréat ou maîtrise en informatique, apprentissage automatique (machine learning) ou dans un domaine connexe.
5 ans ou plus d’expérience professionnelle en ingénierie ML, MLOps ou développement de pipelines de données.
Capacité démontrée à concevoir et automatiser des pipelines ML complets dans un environnement cloud.
Solides compétences en Python et SQL.
Expérience dans l’intégration de systèmes ML avec des sources de données d’entreprise (Oracle, Snowflake).
Bonne connaissance des déploiements conteneurisés, de l’orchestration de workflows et de l’automatisation CI/CD.
Compréhension du cycle de vie des modèles, du versionnage et des meilleures pratiques de déploiement en production.
Collaborer avec les data scientists pour industrialiser les modèles et optimiser la performance.
Garantir des déploiements cloud sécurisés et conformes (IAM, RBAC, chiffrement et sécurité réseau).
Environnement technique
Langages et frameworks : Python (pandas, PySpark, Polars, boto3, joblib, lightgbm/xgboost), SQL, dbt
Ingénierie de données : AWS Glue, AWS DMS, Athena, Snowflake, Oracle
Pipelines et orchestration : Kedro, Airflow, EventBridge, Batch, Fargate
MLOps : MLflow, Docker, ECR, CI/CD (GitHub Actions, Jenkins ou équivalent)
Prévision et modélisation : Prophet, XGBoost, LightGBM, scikit-learn
Cloud et déploiement : AWS (EC2, S3, RDS, Glue, Batch, Fargate), Azure (intégration/authentification)
Sécurité : AWS IAM, Cognito, chiffrement et contrôle d’accès réseau
Qualifications
Baccalauréat ou maîtrise en informatique, apprentissage automatique (machine learning) ou dans un domaine connexe.
5 ans ou plus d’expérience professionnelle en ingénierie ML, MLOps ou développement de pipelines de données.
Capacité démontrée à concevoir et automatiser des pipelines ML complets dans un environnement cloud.
Solides compétences en Python et SQL.
Expérience dans l’intégration de systèmes ML avec des sources de données d’entreprise (Oracle, Snowflake).
Bonne connaissance des déploiements conteneurisés, de l’orchestration de workflows et de l’automatisation CI/CD.
Compréhension du cycle de vie des modèles, du versionnage et des meilleures pratiques de déploiement en production.
Qualités recherchées
Ingénieur·e pratique avec un fort sens des responsabilités.
Esprit analytique, axé sur la performance et la résolution de problèmes.
Capacité à équilibrer pragmatiquement évolutivité, coûts et maintenabilité.
À l’aise à l’intersection des données, du ML et du génie logiciel.
Esprit collaboratif — travaille étroitement avec les data scientists et les développeur·euse·s.
Passion pour l’automatisation, la fiabilité et l’amélioration continue.
Informations complémentaires
Modèle de travail : Hybride ; présence au bureau de Montréal deux jours par semaine.
Option de télétravail possible pour les candidat·e·s exceptionnel·le·s.
Nous remercions toutes les personnes intéressées ; seules les personnes retenues seront contactées.
Rejoignez‑nous pour construire les fondations cloud de notre avenir IA !